pt
Lista de Produtos de IA
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
Página Inicial
Notícias de IA
AI Daily
Guia de Monetização
Tutoriais de IA
Navegação de Ferramentas de IA
Biblioteca de Produtos de IA
pt
Lista de Produtos de IA
Pesquise as tendências globais de produtos de IA
Pesquise informações globais de IA e descubra novas oportunidades de IA
Informação de Notícias
Aplicações de Produtos
Casos de Monetização
Tutoriais de IA
Tipo :
Informação de Notícias
Aplicações de Produtos
Casos de Monetização
Tutoriais de IA
2025-02-12 11:14:46
.
AIbase
.
15.3k
Desafios de segurança na Anthropic: Teste de jailbreak universal em modelo de IA revela vulnerabilidades
Em apenas seis dias, participantes conseguiram contornar todas as proteções de segurança do modelo de Inteligência Artificial (IA) Claude3.5 da Anthropic, levantando novas discussões sobre a segurança da IA. Jan Leike, ex-membro da equipe de alinhamento da OpenAI e atualmente na Anthropic, anunciou no X que um participante conseguiu quebrar todos os oito níveis de segurança. Esse esforço coletivo envolveu cerca de 3.700 horas de testes e 300.000 mensagens de participantes. Apesar dos desafios,